联合学习是用于培训分布式,敏感数据的培训模型的流行策略,同时保留了数据隐私。先前的工作确定了毒害数据或模型的联合学习方案的一系列安全威胁。但是,联合学习是一个网络系统,客户与服务器之间的通信对于学习任务绩效起着至关重要的作用。我们强调了沟通如何在联邦学习中引入另一个漏洞表面,并研究网络级对手对训练联合学习模型的影响。我们表明,从精心选择的客户中删除网络流量的攻击者可以大大降低目标人群的模型准确性。此外,我们表明,来自少数客户的协调中毒运动可以扩大降低攻击。最后,我们开发了服务器端防御,通过识别和上采样的客户可能对目标准确性做出积极贡献,从而减轻了攻击的影响。我们在三个数据集上全面评估了我们的攻击和防御,假设具有网络部分可见性的加密通信渠道和攻击者。
translated by 谷歌翻译
基于学习的MRI翻译涉及一个合成模型,该模型将源对比度映射到目标对比图像上。多机构合作是跨广泛数据集培训合​​成模型的关键,但是集中式培训涉及隐私风险。联合学习(FL)是一个协作框架,相反,采用分散培训,以避免共享成像数据并减轻隐私问题。但是,成像数据的分布中固有的异质性可能会损害训练的模型。一方面,即使对于具有固定源目标配置的常见翻译任务,图像分布的隐式变化也很明显。相反,当规定具有不同源目标配置的不同翻译任务时,在站点内和跨站点内会出现明确的变化。为了提高针对域转移的可靠性,我们在这里介绍了MRI合成的第一种个性化FL方法(PFLSYNTH)。 PFLSYNTH基于配备映射器的对抗模型,该映射器会产生特定于单个站点和源目标对比的潜伏期。它利用新颖的个性化阻滞了基于这些潜伏期的发电机跨发电机图的统计和加权。为了进一步促进位点特异性,在发电机的下游层上采用了部分模型聚集,而上游层则保留在本地。因此,PFLSYNTH可以培训统一的合成模型,该模型可以可靠地跨越多个站点和翻译任务。在多站点数据集上进行的全面实验清楚地证明了PFLSHNTH在多对比度MRI合成中对先前联合方法的增强性能。
translated by 谷歌翻译
在过去的几年里,几年枪支学习(FSL)引起了极大的关注,以最大限度地减少标有标记的训练示例的依赖。FSL中固有的困难是处理每个课程的培训样本太少的含糊不清的歧义。为了在FSL中解决这一基本挑战,我们的目标是培训可以利用关于新颖类别的先前语义知识来引导分类器合成过程的元学习模型。特别是,我们提出了语义调节的特征注意力和样本注意机制,估计表示尺寸和培训实例的重要性。我们还研究了FSL的样本噪声问题,以便在更现实和不完美的环境中利用Meta-Meverys。我们的实验结果展示了所提出的语义FSL模型的有效性,而没有样品噪声。
translated by 谷歌翻译